模拟人类大脑 :人工智能的救赎之路 ?
这两年, 频频有专家警示深度学习即将进入寒冬。 而同时, 一个名叫“类脑智能”的词汇火起来, 这个概念说的是一种比目前深度学习更加接近人脑的智能。 这背后的故事是, 深度学习的大佬,目前已经注意到深度学习的原创性进展面临瓶颈,甚至呼吁全部重来。为了拯救这种趋势, 模拟人脑再次成为一种希望。 然而这一思路是否经得住深度推敲? 我本人做过多年计算神经科学和AI , 做一个抛砖引玉的小结。
AI发展的危机人工智能, 目前多被理解成一个领域领应用的工程学科,从自动安防系统到无人驾驶是它的疆土,而模式识别和计算机专家, 是这片陆地的原住民。 目前的人工智能事实上以工程思维为主, 从当下人工智能的主流深度学习来看, 打开任何一篇论文, 映入眼帘的是几个知名数据集的性能比较,无论是视觉分类的ImageNet,Pascal Vol, 还是强化学习的Atari game。各种各样的bench mark和曲线, 让我们感觉像是一个CPU或者数码相机的导购指南。
那么, 是否这些在这些流行数据库跑分最高的“智能工具"就更智能? 这可能取决于对”智能“ 本身的定义。 如果你问一个认知专家“智能”是不是ImageNet的错误率, 那么他一定会觉得相当好笑。 一个人可能在识别图片的时候由于各种劳累和马虎, 在这个数据集的错误率高于机器。但是只要你去和它谈任何一个图片它所理解的东西, 比如一个苹果, 你都会震惊于其信息之丰富, 不仅包含了真实苹果的各种感官, 还包含了关于苹果的各种文学影视, 从夏娃的苹果, 到白雪公主的苹果。 应该说, 人类理解的苹果更加接近概念网络里的一个节点,和整个世界的所有其它概念相关联, 而非机器学习分类器眼里的n个互相分离的“高斯分布”。
如果我们认为, ”智能“ 是解决某一类复杂问题的能力,是否我们就可以完全不care上述那种”理解“呢 ? 这样的智能工具, 顶多是一些感官的外延, 而”感官“ 是否可以解决复杂问题呢? 一个能够准确的识别1000种苹果的机器, 未必能有效的利用这样的信息去思考如何把它在圣诞节分作为礼品分发给公司的员工, 或者取悦你的女友。没有”理解“ 的智能, 将很快到达解决问题复杂度的上限。 缺少真正的理解, 甚至连做感官有时也会捉襟见肘, 你在图像里加入各种噪声, 会明显的干扰分类的准确性, 这点在人类里并不存在。比如下图的小狗和曲奇, 你可以分出来,AI很难。
”语言“ 在人类的智能里享有独一无二的特殊性,而刚刚的”理解“问题, 背后的本质是目前深度学习对语言的捉襟见肘。 虽然我们可以用强大的LSTM生成诗歌(下图), 再配上注意力机制和外显记忆与人类对话, 也不代表它能理解人类的这个语言系统。 目前机器对自然语言处理的能力远不及视觉(当下的图卷积网络或可以这个领域做出贡献)。
更加糟糕的还有强化学习, 深度强化学习已经战胜了最强大的人类棋手。 但是强化学习却远非一种可靠的实用方法。 这里面最难的在于目前的强化学习还做不到可扩展, 也就是从一个游戏的问题扩展到真实的问题时候会十分糟糕。 一个已经学的很好的强化学习网络,可以在自己已经学到的领域所向披靡, 然而在游戏里稍微增加一点变化, 神经网络就不知所措。 我们可以想象成这是泛化能力的严重缺失, 在真实世界里,这恰恰一击致命。
事实上在很长时间里,人工智能的过分依赖工科思维恰恰给它的危机埋下了伏笔,在人工数据上破记录, 并不代表我们就会在刚说的“理解”上做进步。 这更像是两个不同的进化方向。 其实, 关于智能的更深刻的理解, 早就是认知科学家,心理学家和神经科学家的核心任务。 如果我们需要让人工智能进步, 向他们取经就看起来很合理。
脑科学与人工智能合作与分离的历史
虽然看起来模拟生物大脑是达到更高层次人工智能的必由之路,但是从当下的人工智能学者的角度,这远非显然。 这里的渊源来自人工智能的早期发展史,应该说深度学习来自于对脑科学的直接取经, 然而它的壮大却是由于对这条道路的背离。 我们可以把这个历史概括为两次合作一次分离。
第一次合作: 深度学习的前身-感知机。模拟人类大脑的人工智能流派又称为连接主义,最早的连接主义尝试就是模拟大脑的单个神经元。 Warren McCulloch 和 WalterPitts在1943 提出而来神经元的模型, 这个模型类似于某种二极管或逻辑门电路。事实上, 人们很快发现感知机的学习有巨大的局限性,Minksky等一批AI早期大师发现感知机无法执行“异或”这个非常基本的逻辑运算,从而让人们彻底放弃了用它得到人类智能的希望。 对感知机的失望导致连接主义机器学习的研究陷入低谷达15年, 直到一股新的力量的注入。
第二次合作: 这次风波, 来自一群好奇心极强的物理学家,在20世纪80年代,hopefiled提出了它的 Hopefield 网络模型,这个模型受到了物理里的Ising模型和自旋玻璃模型的启发, Hopefield发现,自旋玻璃和神经网络具有极大的相似性。每个神经元可以看作一个个微小的磁极, 它可以一种极为简单的方法影响周围的神经元,一个是兴奋(使得其他神经元和自己状态相同), 一个是抑制(相反)。 如果我们用这个模型来表示神经网络, 那么我们会立刻得到一个心理学特有的现象: 关联记忆。 比如说你看到你奶奶的照片, 立刻想到是奶奶,再联想到和奶奶有关的很多事。 这里的观点是, 某种神经信息(比如奶奶)对应神经元的集体发放状态(好比操场上正步走的士兵), 当奶奶的照片被输入进去, 它会召唤这个神经元的集体状态, 然后你就想到了奶奶。
由于这个模型可以模拟心理学的现象, 人们开始重新对模拟人脑的人工智能报以希望。 人们从不同领域开始涌入这个研究。 在这批人里,发生了一个有趣的分化。 有的人沿着这个路数去研究真实大脑是怎么思考的, 有的人则想直接用这个模型制造机器大脑, 前者派生出了计算神经科学, 后者则导致了联结主义机器学习的复兴, 你可以理解为前者对猫感兴趣,后者只对机器猫感兴趣,虽然两者都在那里写模型。 CNN和RNN分别在80年中后期被发现, 应该说, CNN的结构是直接借鉴了Husel和Wiesel 发现的视觉皮层处理信息的原理, 而RNN则是刚刚说到的Hopefield 网络的一个直接进化。
一批人用模型研究真实大脑, 另一批研究机器大脑
AI与脑科学的分离: 90年代后人工智能的主流是以支持向量机为代表的统计机器学习, 而非神经网络。 在漫长的联结主义低谷期, Hinton坚信神经网络既然作为生物智能的载体, 它一定会称为人工智能的救星, 在它的努力下, Hopefield网络很快演化称为新的更强大的模型玻尔兹曼机, 玻尔兹曼机演化为受限玻尔兹曼机, 自编码器, 堆叠自编码器,这已经很接近当下的深度网络。 而深度卷积网络CNN则连续打破视觉处理任务的记录,宣布深度学习时代开始。
然而, 如果你认为这一股AI兴起的风波的原因是我们对大脑的借鉴, 则一定会被机器学习专家diss,恰恰相反,这波深度学习的崛起来自于深度学习专家对脑科学的背离。 CNN虽然直接模拟了大脑视皮层结构的模拟, 利用了层级编码, 局部网络连接, 池化这样和生物直接相关的原理。但是, 网络的训练方法,却来自一种完全非生物的方法。 由于信息存储在无数神经元构成的网络连接里, 如何让它学进去, 也是最难的问题。很久以前,人们使用的学习方法是Hebian learning 的生物学习方法, 这种方法实用起来极为困难。 Hinton等人放弃这条道路而使用没有生物支撑但更加高效的反向传播算法, 使得最终训练成功。 从此数据犹如一颗颗子弹打造出神经网络的雏形 ,虽然每次只改一点点, 最终当数据的量特别巨大, 却发生一场质变。
CNN能够在2012 年而不是2011或者2010年开始爆发是因为那一年人们提出了Alexnet。 而Alexnet比起之前的Lenet一个关键性的微小调整在于使用Relu,所谓线性整流单元替换了之前的Sigmoid作为激活函数。Simoid 函数才是更加具有生物基础的学习函数, 然而能够抛弃模拟大脑的想法使用Relu, 使得整个网络的信息流通通畅了很多。
深度学习另一条主线, 沿着让机器听懂人类的语言, 一种叫LSTM的神经网络, 模拟了人类最奇妙的记忆能力, 并却开始处理和自然语言有关的任务, LSTM框架的提出依然是没有遵循大脑的结构,而是直接在网络里引入类似逻辑门的结构控制信息。
由此我们看到, 神经网络虽然在诞生之初多次吸收了生物学的原理本质, 而其最终的成功却在于它大胆的脱离生物细节, 使用更加讲究效率的数理工科思维。 生物的细节千千万, 有一些是进化的副产品, 或者由于生物经常挨饿做出的妥协, 却远非智能的必须, 因此对它们的抛弃极大的解放了人工智能的发展。
脑科学究竟能否开启深度学习时代的下个阶段
那么生物神经网络究竟可不可以启发人工智能呢? 刚刚的分析我们看到生物的细节并不一定对人工智能有帮助, 而生物大脑计算的根本原理却始终在推动深度学习 。 正如CNN的发展直接使用了层级编码的原理, 然后根据自己计算的需求重新设定了细节, 无论如何变化, 生物视觉处理和CNN背后的数学核心却始终保持一致。
那么目前的深度学习工具用到了多少生物大脑计算的基本原理呢, 答案是, 冰山一角。 如果说人工智能要继续革命, 那么无疑还要继续深挖这些原理,然后根据这些原则重新设定细节。 答案很简单, 宇宙的基本定律不会有很多, 比如相对论量子论这样的根本原理几乎统治物理世界。 如果生物大脑使用一套原理实现了智能, 那么很可能人工智能也不会差很远。即使细节差距很大, 那个根本的东西极有可能是一致的。
这样的数学原理应该不会有很多条, 因为人脑的结构一个惊人的特点就是虽然脑区非常不同, 但不同脑区的构造却极为相似, 这种相似性显示了大脑不同脑区使用类似的基本原理。 我们目前的深度学习算法, 无论是CNN还是RNN,都只是发现了这个基本原理的某个局部。 发现这个基本原理, 恰恰是计算神经科学的使命。 对于智能这个上帝最杰出的作品, 我们能做的只有盲人摸象, 目前摸到的东西有一些已经被用到了人工智能里, 有些则没有,我们随便举几个看看。
确定已经被应用的原理:
1, 层级编码原理(Hierarchical coding): 生物神经网络最基本的结构特点是多层, 无论是视觉, 听觉, 我们说基本的神经回路都有层级结构, 而且经常是六层。这种纵深的层级, 对应的编码原理正是从具体特征到抽象特征的层级编码结构。 最有名的莫过于祖母细胞, 这一思路直接催生了以CNN为代表的深度学习。
2, 集群编码原理 (Distributed coding): 一个与层级编码相对应的生物神经编码假设是集群编码, 这里说的是一个抽象的概念, 并非对应某个具体的神经元, 而是被一群神经元所表述。 这种编码方法, 相比层级编码, 会更具备鲁棒性, 或更加反脆弱,因为删除一些细胞不会造成整体神经回路的瘫痪。 集群编码在深度学习里的一个直接体现就是词向量编码, word2vect, 词向量编码并没有采取我们最常想到的每个向量独立的独热编码, 而是每个向量里有大量非零的元素, 如此好比用一个神经集群表述一个单词, 带来的好处不仅是更加具有鲁棒性, 而且我们无形中引入了词语之间本来的互相关联,从而使得神经网络更好的吸收语义信息, 从而增加了泛化能力。 在此处, 每个词语概念都有多个神经元表达, 而同一个神经元,可以参与多个概念的描述。 这与之前说的每个概念比如祖母对应一个特定的神经元有比较大的区别。
然而目前的深度学习依然缺乏对集群编码更深刻的应用, 这点上来看,计算神经科学走的更远,我们使用RNN内在的动力学特性, 可以编码很多属性。
局部被应用或没有被应用的原理:
1,cortical minicolumn:皮层内的神经元都采取簇状结构, 细胞之间不是独立的存在, 而是聚集成团簇, 犹如一个微型的柱状体。 这些柱状体成为信息传输的基本单元。 这种惊人一致的皮层内结构, 背后的认知原理是什么呢? 目前还没有定论。 但是Hinton已经把类似的结构用到了Capsule Network , 在那里, 每个Capsule对应一个簇状体, 而它们有着非常明确的使命, 就是记录一个物体的不同属性, 由于一个Capsule有很多神经元构成,它也可以看作一个神经元向量, 如果它用来记录一组特征, 则可以对付向旋转不变性这种非常抽象的性质。
2,兴奋抑制平衡: 生物神经系统的各个组成部分, 尤其是靠近深层的脑区, 都具有的一个性质是兴奋性和抑制性神经元的信号互相抵消,犹如两个队伍拔河, 两边势均力敌(最终和为零)。这使得每个神经元接受的信息输入都在零附近, 这带来的一个巨大的好处是神经元对新进入信号更加敏感, 具有更大的动态范围。 这个原理已经被深度学习悄悄的介入了, 它的直接体现就是极为实用的batch normalization, 输入信号被加上或减去一个值从而成为一个零附近的标准高斯分布(这和兴奋抑制平衡效果类似), 从而大大提升了网络梯度传输的效率。
3,动态网络连接: 生物神经系统的神经元和神经元之间的连接-突触本身是随放电活动变化的。 当一个神经元经过放电, 它的活动将会引起细胞突触钙离子的浓度变化,从而引起两个神经元间的连接强度变化。这将导致神经网络的连接权重跟着它的工作状态变化, 计算神经科学认为动态连接的神经网络可以承载工作记忆, 而这点并没有被目前的深度学习系统很好利用 。
4 Top down processing: 目前深度学习使用的网络以前向网络为主(bottom up), 而事实上, 在生物大脑里, 不同脑区间反馈的连接数量超过前向的连接, 这些连接的作用是什么? 一个主流的观点认为它们是从高级脑区向感官的反向调节(top down), 如同我们所说的相由心生, 而不是相由眼生。 同一个图片有美女拿着蛋糕, 可能一个你在饥肠辘辘的时候只看到蛋糕而吃饱了就只看到美女。 我们所看到的,很大程度上取决于我们想要看到什么,以及我们的心情 。这点对我们的生存无疑十分重要, 你显然不是在被动的认知和识别物体, 你的感知和认知显然是统一的。 你在主动的搜索对你的生存有利的物体, 而非被动的感觉外界存在。这一点目前深度学习还完全没有涉及。 一个引入相应的机制的方法是加入从深层神经网络返回输入层的连接,这样深层的神经活动就可以调控输出层的信息处理, 这可能对真正的“ 理解” 有着极为重大的意义。
7,Grid Cells: 海马栅格细胞是一组能够集群表征空间位置的细胞, 它们的原理类似于对物体所在的位置做了一个傅里叶变换, 形成一组表征物体空间位置的坐标基。为什么要对空间里物体的位置做一次傅里叶变换, 这里包含的原理是对任何环境中的物体形成通用的空间表示, 在新的环境里也可以灵活的学习物体的位置,而不是一下子成为路痴。
我们对栅格细胞的认知可能只是更大的神经编码原则的一个局部,正如同傅里叶变换和量子力学之间存在着隐秘的联系。 虽然栅格网络,目前已经被Deepmind用于空间导航任务, 但是目前AI所应用的应该只是这一原理的冰山一角。
8 Dale Principle: Dale Principle 说的是兴奋型和抑制型神经元 是完全分开的,犹如动物分雌雄。 兴奋性神经元只对周围神经元发放正向反馈(只分泌兴奋性递质, 如Glutamine),让其它神经元一起兴奋, 而抑制型神经元只发放负向反馈(只分泌抑制型递质, 如GABA),取消其它神经元的兴奋。 目前的深度学习网络不会对某个神经元的连接权重做如此限制 ,每个神经元均可向周围神经元发放正或负的信号。 这一原理到底对AI有没有作用目前未知。
8 Routing by Inhibitory cells : 生物神经系统包含种类丰富的抑制型神经元, 它们往往在生物神经网络起到调控功能,如同控制信息流动的路由器,在合适的时候开启或关闭某个信号。 当下的AI直接用attention的机制, 或者LSTM里的输入门来调控是否让某个输入进入网络, 其它一点类似路由器的作用, 但是种类和形式的多样性远不及生物系统。
9 临界: 大脑的神经元组成一个巨大的喧闹的动力系统, 根据很多实验数据发现, 这个动力系统处于平衡和混沌的边缘, 被称为临界。 在临界状态, 神经元的活动是一种混乱和秩序的统一体, 看似混乱, 但是隐含着生机勃勃的秩序。 临界是不是也可以用于优化目前的深度学习系统, 是一个很大的课题。
10 ,自由能假说: 这个假定认为大脑是一台贝叶斯推断机器。 贝叶斯推断和决策的核心即由最新采纳的证据更新先验概率得到后验概率。 认知科学的核心(Perception)就是这样一个过程。
这里再说两句认知,认知的过程用机器学习的语言说就是用大脑的内部变量来模拟外部世界, 并希望建立内部世界和外部的一个一一映射关系。 这里我们说认知的模型是一个概率模型,并且可以被一系列条件概率所描述。如果用一个形象的比喻来说, 你可以把你的大脑看成一个可以自由打隔断的巨大仓库, 你要把外部世界不同种类的货放进不同的隔断,你的大脑内部运作要有一种对外界真实变化的推测演绎能力, 即随时根据新的证据调整的能力, 你和外界世界的模型匹配的越好, 你的脑子就运转越有效率。 认知是对外部世界运动的一种编码, 你可以立刻联想到机器学习里的表征方法(representation), 如果你熟悉RNN或CNN的embeding过程, 就会有一种豁然开朗的感觉。 这个假说的理论如果成立, 我们机器学习目前应当使用的只是冰山一角, 可以参考强化学习种的有模型学习。 更多内容见大脑的自由能假说-兼论认知科学与机器学习
11 一些未被量化的心理学和认知科学领地,比如意识。 意识可以理解为自我对自我本身的感知。 关于意识的起源,已经成为一个重要的神经科学探索方向而非玄学, 最近的一些文章指出(The controversial correlates of consiousness - Science 2018), 意识与多个脑区协同的集体放电相关。 但是, 关于意识的一个重大疑团是它对认知和智能到底有什么作用, 还是一个进化的副产物。 如果它对智能有不可替代的作用, 那么毫无疑问, 我们需要让AI最终拥有意识。 一个假说指出意识与我们的社会属性相关, 因为我们需要预测它人的意图和行动, 就需要对它人的大脑建模, 从而派生了对自己本身大脑的感知和认知,从而有了意识。 那么我们究竟需要不需要让AI之间能够互相交流沟通形成组织呢? 这就是一个更有趣的问题了。
深度学习对脑科学的启发:
反过来, 深度学习的某些发现也在反向启发脑科学, 这点正好对应费曼所说的, 如果你要真正理解一个东西, 请你把它做出来。 由于深度学习的BP算法太强大了, 它可以让我们在不care任何生物细节的情况下任意的改变网络权重, 这就好比给我们了一个巨大的检测各种理论假设的东西。 由于当下对大脑连接改变的方式我们也只理解了冰山一角, 我们可以先丢下细节, 直接去检验所有可能的选项。 这点上看, 用深度学习理解大脑甚至更加有趣。
就那刚刚讲的兴奋抑制平衡来看, 最初人们对兴奋抑制平衡作用的理解更多停留在它通过对信号做一个信息增益, 而在深度学习兴起后 , 我们越来越多的把它的功能和batch normalization 联系起来, 而batch normalization更大的作用在于对梯度消失问题的改进, 而且提高了泛化性能, 这无疑可以提示它的更多功能。 而最近的一篇文章甚至直接将它和LSTM的门调控机制联系起来。 抑制神经元可以通过有条件的发放对信息进行导流, 正如LSTM种的输入门, 输出门的作用, 而互相连接的兴奋神经元则作为信息的载体(对应LSTM中央的循环神经网络)
我们距离通用人工智能可能还有多远?
其实人工智能的目标就是找寻那个通用人工智能,而类脑计算是实现它的一个重要途径 。 通用智能和当下的智能到底有什么实质性的区别, 作为本文结尾, 我们来看一下:
对数据的使用效率: 比如大脑对数据的应用效率和AI算法并非一个等级, 你看到一个数据, 就可以充分的提取里面的信息,比如看到一个陌生人的脸, 你就记住他了, 但是对于目前的AI算法, 这是不可能的, 因为我们需要大量的照片输入让他掌握这件事。 我们可以轻松的在学完蛙泳的时候学习自由泳, 这对于AI,就是一个困难的问题, 也就是说,同样的效率, 人脑能够从中很快提取到信息, 形成新的技能, AI算法却差的远。
这是为什呢? 可能这里的挂件体现在一种被称为迁移学习的能力。虽然当下的深度学习算法也具备这一类举一反三的迁移学习能力, 但是往往集中在一些真正非常相近的任务里, 人的表现却灵活的多。这是为什么呢? 也许, 目前的AI算法缺少一种元学习的能力。 和为元学习, 就是提取一大类问题里类似的本质, 我们人类非常容易干的一个事情。 到底什么造成了人工神经网络和人的神经网路的差距, 还是未知的, 而这个问题也构成一个非常主流的研究方向。
能耗比:如果和人类相比, 人工智能系统完成同等任务的功耗是人的极多倍数(比如阿法狗是人脑消耗的三百倍, 3000MJ vs 10MJ 5小时比赛)。 如果耗能如此剧烈, 我们无法想象在能源紧张的地球可以很容易大量普及这样的智能。 那么这个问题有没有解呢? 当然有, 一种, 是我们本身对能量提取的能力大大增强, 比如小型可控核聚变实用化。 另一种, 依然要依靠算法的进步, 既然人脑可以做到的, 我们相信通过不断仿生机器也可以接近。 这一点上我们更多看到的信息是, 人工智能的能耗比和人相比, 还是有很大差距的。
不同数据整合: 我们离终极算法相差甚远的另一个重要原因可能是现实人类在解决的AI问题犹如一个个分离的孤岛, 比如说视觉是视觉, 自然语言是自然语言, 这些孤岛并没有被打通。 相反,人类的智慧里, 从来就没有分离的视觉, 运动或自然语言, 这点上看, 我们还处在AI的初级阶段。 我们可以预想, 人类的智慧是不可能建立在一个个分离的认知孤岛上的, 我们的世界模型一定建立在把这些孤立的信息领域打通的基础上, 才可以做到真正对某个事物的认知, 无论是一个苹果, 还是一只狗。
沟通与社会性: 另外, 人类的智慧是建立在沟通之上的, 人与人相互沟通结成社会, 社会基础上才有文明, 目前的人工智能体还没有沟通, 但不代表以后是不能的, 这点, 也是一个目前的AI水平与强AI(超级算法)的距离所在。
有的人认为, 我们可以直接通过模拟大脑的神经元,组成一个和大脑类似复杂度的复杂系统, 让它自我学习和进化, 从而实现强AI。 从我这个复杂系统专业的角度看, 这还是一个不太现实的事情。因为复杂系统里面最重要的是涌现,也就是说当组成一个集合的元素越来越多,相互作用越来越复杂, 这个集合在某个特殊条件下会出现一些特殊的总体属性,比如强AI,自我意识。 但是我们几乎不可能指望只要我们堆积了那么多元素, 这个现象(相变)就一定会发生。
至于回到那个未来人工智能曲线发展展望的话题, 我们可以看到, 这些不确定的因素都会使得这条发展曲线变得不可确定。 然而有一点是肯定的, 就是正在有越来越多非常聪明的人, 开始迅速的进入到这个领域, 越来越多的投资也在进来。 这说明, AI已经是势不可挡的称为人类历史的增长极, 即使有一些不确定性, 它却不可能再进入到一个停滞不前的低谷了, 我们也许不会一天两天就接近终极算法, 但却一定会在细分领域取得一个又一个突破。无论是视觉, 自然语言, 还是运动控制。
能否走向通用人工智能的确是人工智能未来发展最大的变数, 或许, 我们真正的沉下心来去和大脑取经还是可以或多或少的帮助我们。 因为本质上, 我们在人工智能的研究上所作的, 依然是在模拟人类大脑的奥秘。 我们越接近人类智慧的终极算法, 就越能得到更好的人工智能算法。
更多阅读
Alpha Zero登上Science封面- 听铁哥浅析阿尔法元
作者简介
作者许铁,微信号:ironcruiser
法国巴黎高师物理硕士 ,以色列理工大学(以色列85%科技创业人才的摇篮, 计算机科学享誉全球)计算神经科学博士,巡洋舰科技有限公司创始人, 《机器学习与复杂系统》纸质书作者。曾在香港浸会大学非线性科学中心工作一年 ,万门童校长好战友。
铁哥更系统性的关于人脑智能和人工智能的比较分析可见目前在万门大学开设的新课: 模拟人类大脑-跟着许铁老师学人工智能